Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
So, guten Morgen zusammen. Ich hatte ja letztes Mal gesagt, ich weiß nicht so recht, wie die
Vorlesung weitergehen soll. Sozusagen ein Gedenk meiner schlechten Vorbereitung. Ja,
was könnten wir jetzt noch machen? Wir könnten natürlich uns enorm um diese ganze Frage der
quasi der Variablen-Metrik-Verfahren kümmern. Das ist sehr unbefriedigend. Wir haben eine Update-Formel
gesehen. Wir haben den Namen einer anderen gehört. Die sind vom Himmel gefallen. Okay,
da könnten wir gut jetzt den ganzen Rest der Vorlesung uns mit beschäftigen. Ich bin mir
nur nicht sicher, ob wir dann so schrecklich viel davon haben, denn entweder sie werden sich
nochmal verstärkt mit Optimierung beschäftigen. Eine der vielen Vorlesungen, die im Department
angeboten werden, dann werden sie das nochmal viel ausführlicher hören. Und wenn das nicht ist,
wenn sie sozusagen gegebenenfalls nur als Nutzer solchen Verfahren gegenüberstehen,
so wie ich das tue, obwohl ich mich in meiner Jugend extrem viel mit Optimierung beschäftigt
habe, da probiert man halt einfach aus. Dann nimmt man mal den einen oder anderen Update und schaut,
was so passiert. Und egal, was man vorher da an Theorie gesehen hat oder nicht. Deswegen dachte
ich, naja, vielleicht ist es etwas sinnvoller, doch das Spektrum ein bisschen zu weiten und auch
Nebenbedingungen mit aufzunehmen. Dann wäre die Optimierung eigentlich erst richtig interessant
und fängt an, Optimierung zu werden, denn bisher haben wir gesehen, im Wesentlichen sind das nicht
linare Gleichungssysteme, was wir machen. Wir machen Verfahren zu nicht linaren Gleichungssystemen.
Zumindestens auf der einen Schiene, die sich letztlich darum kümmert, stationäre Punkte zu
finden, setzt natürlich die Differenzierbarkeit voraus. Die andere Schiene, die wir angesprochen
haben, sind Varianten von Abstiegsverfahren und da tun wir uns ein bisschen schwer,
das jetzt auf den eingeschränkten Fall zu übertragen. Das würde ja bedeuten, wir müssen
sicherstellen, dass wir in dieser Einschränkungsmenge bleiben. Also wie wäre das allgemeine Bild?
Was wir jetzt haben, wäre Optimierung ohne Nebenbedingungen, auf Deutsch nicht restringierte Optimierung.
Das heißt, wir haben einfach ein Funktional, minimiere f von x, x aus dem Rn. Das war die
Fragestellung. Restringierte Optimierung ist nun leicht hingeschrieben, aber in dieser allgemeinen
Form kann man relativ wenig mit anfangen. Das heißt, wir versuchen wieder ein Funktional zu
minimieren. Beispiele kennen wir ja auch schon in Form der Linearenoptimierung und hier haben
wir ganz allgemein jetzt eine zulässige Menge, ad vi admissible aus dem Rn. Gut, auf diesem
allgemeinen Level kann man mit dem Problem so gut wie nichts anfangen. Jetzt muss man
diese Einschränkungsmenge beschreiben. Typische Formen wären die nicht so schwierigen, das
sind die Gleichungs, das kennen Sie schon aus der Linearenoptimierung, die Gleichungseinschränkungen
oder die Gleichungsnebenbedingungen. Sagen wir mal, wir haben Funktionen gi von x gleich
und wenn ich es in dieser allgemeinen Form schreibe, kann ich ja auch gleich Null schreiben,
weil ich irgendeine Konstante auch in das gi schreiben kann. Sagen wir mal, i von 1
bis m1. Die andere Variante, auch schon bekannt aus der Linearenoptimierung, wären die Ungleichungseinschränkungen.
Nehmen wir die Funktionen mal hi, dann hätten wir Bedingungen des Typs hi kleiner gleich
Null oder größer gleich Null, ist egal, auf was man sich jetzt einigt. In dieser Allgemeinheit,
das wäre sozusagen die das, das und das, das wäre so eine allgemeine Formulierung eines
Glatten, also eines Differenzierbaren. Man braucht dann die entsprechende Glattheit auch
dieser Funktionen, Optimierungsproblems im Rn, wofür man dann erst einmal Theorie machen
könnte und auf diese Theorie gegebenenfalls aufbauen verfahren. Was heißt jetzt Theorie?
Was war unsere Theorie bis jetzt? Unsere Theorie bis jetzt war sozusagen der Ursumpf der Kurvendiskussion,
wenn ein Minimum vorliegt, wenn ein lokales Minimum vorliegt, dann ist der Gradient gleich
Null. Wir haben schon im Falle von linearen Gleichungsnebenbedingungen gesehen, das lässt
sich erweitern. Im Fall von linearen Gleichungsnebenbedingungen kommt dann ein Lagrange-Multiplikator ins Spiel
und wir haben weiterhin ein Gleichungssystem zu lösen. Genau auf Bedingungen dieser Art
läuft das auch in diesem allgemeinen Rahmen hinaus. Das sind aber dann alle immer nur
natürlich notwendige Optimalitätsbedingungen, genauso wie natürlich Gradient f und x gleich
Null nur eine notwendige Minimalitätsbedingung ist. Das heißt also, wenn von notwendigen
Presenters
Zugänglich über
Offener Zugang
Dauer
01:24:43 Min
Aufnahmedatum
2013-07-09
Hochgeladen am
2013-08-08 01:01:14
Sprache
de-DE